Entropía (información) — Saltar a navegación, búsqueda Para otros usos de este término, véase Entropía. Entropía es un concepto en termodinámica, mecánica estadística y teoría de la información. Los conceptos de información y entropía están ampliamente relacionados entre … Wikipedia Español
Entropía — Para otros usos de este término, véase Entropía (desambiguación). Escultura dedicada a la Entropía en los jardines centrales de la Universidad de Monterrey, México En termodinámica, la entropía (simbolizada como S) es una magnitud física que… … Wikipedia Español
Entropía (termodinámica) — Saltar a navegación, búsqueda La entropía describe lo irreversible de los sistemas termodinámicos. En termodinámica, la entropía (simbolizada como S) es la magnitud física que mide la parte de la energía que no puede utilizarse para producir… … Wikipedia Español
Entropía de Shannon — Saltar a navegación, búsqueda La entropía definida por Shannon, referida a la teoría de la información, hace referencia a la cantidad media de información que contiene una variable aleatoria o, en particular, una fuente transmisión binaria. La… … Wikipedia Español
Entropía cruzada — Saltar a navegación, búsqueda En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide la media de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación… … Wikipedia Español
Entropía de Kolmogórov — Saltar a navegación, búsqueda La entropía de Kolmogórov se define como principio que mide la pérdida de información a lo largo de la evolución del sistema. También es definida como la suma de exponentes de Liapunov. Tiene una gran importancia, en … Wikipedia Español
Información — Para otros usos de este término, véase Información (periódico). En sentido general, la información es un conjunto organizado de datos procesados, que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe… … Wikipedia Español
Entropía — (Del gr. entrope, vuelta.) ► sustantivo femenino 1 FÍSICA Magnitud termodinámica que indica el grado de desorden interno de un sistema. 2 SICOLOGÍA Medida que indica el grado de información no aprovechable de una fuente, en función del número de… … Enciclopedia Universal
Información mutua — En teoría de la probabilidad, y en teoría de la información, la información mutua o transinformación de dos variables aleatorias es una cantidad que mide la dependencia mutua de dos variables. La unidad de medida más común de información mutua es … Wikipedia Español
Teoría de la información — Este artículo está siendo desarrollado y forma parte de un proyecto educativo. Es posible que a causa de ello haya lagunas de contenido o deficiencias de formato. Si quieres puedes ayudar y editar, pero por favor antes de realizar correcciones… … Wikipedia Español